Savremeni jezički modeli veštačke inteligencije podložni su različitim političkim pristrasnostima, pokazuju nova istraživanja. Naime, prema pisanju MIT Technology Review, korisnici će dobiti različite odgovore – desničarske ili levičarske – u zavisnosti od toga kom četbotu se obrate.
Ovo je posebno važno jer kompanije sve više koriste ove modele u proizvodima i uslugama koje koriste milioni ljudi, a političke pristrasnosti mogu prouzrokovati ozbiljne posledice.
O istraživanju
Istraživanje sprovedeno na Univerzitetu u Vašingtonu, Karnegi Melon Univerzitetu i Univerzitetu Xi’an Jiaotong analiziralo je 14 velikih jezičkih modela. Njihovi rezultati pokazuju da je veštački model ChatGPT iz OpenAI i GPT-4 najviše orijentisan na levičarsku politiku, dok je model LLaMA iz Meta najviše naginjao desničarskoj autoritarnoj politici.
Ispitanici su postavljali pitanja modelima o njihovim stavovima o raznim temama kao što su feminizam i demokratija. Zatim su te odgovore koristili da prikažu naginjanje modela ka određenoj političkoj orijentaciji.
Otkrili su da AI jezički modeli imaju različite političke tendencije, sa BERT modelima razvijenim od strane Google-a koji su bili društveno konzervativniji od GPT modela kompanije OpenAI.
Interesantno je da su ovi modeli promenili svoje političke stavove tokom vremena, što se može pripisati ažuriranjima skupova podataka i metoda treniranja. Na primer, stariji BERT modeli trenirani su na knjigama koje su često imale konzervativniji ton, dok su noviji GPT modeli trenirani na liberalnijem sadržaju sa interneta.
Druga faza istraživanja uključivala je dodatno treniranje jezičkih modela na podacima koji su dolazili iz različitih političkih izvora, kako desničarskih tako i levičarskih. Ovo je dodatno pojačalo njihove političke pristrasnosti, čineći levičarske modele još više levičarskim, odnosno desničarske modele još više desničarskim.
Treća faza istraživanja bavila se time kako političke pristrasnosti ovih modela utiču na njihovu sposobnost da prepoznaju govor mržnje i dezinformacije.
Modeli trenirani na levičarskim podacima bili su osetljiviji na govor mržnje usmeren protiv etničkih, verskih i seksualnih manjina u SAD, dok su modeli trenirani na desničarskim podacima bili osetljiviji na govor mržnje protiv belih muškaraca hrišćanskog opredeljenja.
Takođe su pokazali različito ponašanje u prepoznavanju dezinformacija iz različitih političkih izvora.
Odgovornost tehnoloških kompanija
Sada kada postoje pouzdani podaci o političkim pristrasnostima u AI jezičkim modelima, postavlja se i pitanje odgovornosti tehnoloških kompanija.
Nakon što se OpenAI suočio sa kritikama da ChatGPT odražava liberalni svetonazor, kompanija tvrdi da radi na rešavanju ovih problema i instruiše svoje recenzente da ne favorizuju nijednu političku grupu.
Međutim, autori ovog istraživanja veruju da je gotovo nemoguće stvoriti jezički model potpuno oslobođen političkih pristrasnosti.
Jedan od izazova u razumevanju ovih pristrasnosti jeste to što tehnološke kompanije ne dele detalje o podacima ili metodama korišćenim za obuku svojih modela. Bez transparentnosti, spoljni posmatrači teško mogu saznati zašto modeli razvijeni u tim kompanijama pokazuju određena političke naginjanja.
To ukazuje na potrebu za većom transparentnošću u procesu razvoja veštačkih jezičkih modela kako bi se izbegle političke pristrasnosti koje mogu imati štetne posledice u stvarnom svetu.



